Telegram Group & Telegram Channel
AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety



tg-me.com/levels_of_abstraction/48
Create:
Last Update:

AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety

BY уровни абстракции


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/levels_of_abstraction/48

View MORE
Open in Telegram


LEVELS_OF_ABSTRACTION Telegram Group Telegram | DID YOU KNOW?

Date: |

Telegram auto-delete message, expiring invites, and more

elegram is updating its messaging app with options for auto-deleting messages, expiring invite links, and new unlimited groups, the company shared in a blog post. Much like Signal, Telegram received a burst of new users in the confusion over WhatsApp’s privacy policy and now the company is adopting features that were already part of its competitors’ apps, features which offer more security and privacy. Auto-deleting messages were already possible in Telegram’s encrypted Secret Chats, but this new update for iOS and Android adds the option to make messages disappear in any kind of chat. Auto-delete can be enabled inside of chats, and set to delete either 24 hours or seven days after messages are sent. Auto-delete won’t remove every message though; if a message was sent before the feature was turned on, it’ll stick around. Telegram’s competitors have had similar features: WhatsApp introduced a feature in 2020 and Signal has had disappearing messages since at least 2016.

LEVELS_OF_ABSTRACTION Telegram Group from us


Telegram уровни абстракции
FROM USA